研究背景与意义

人机混合智能系统是一种人类在或被动适应、或主动协同的情境下,与AI赋能的机器进行密切交互的控制系统。

在人机混合智能框架中,由于AI赋能带来的机器自主性提升,意图推理范式呈现出交互式特征:机器的意图推理是从人的意图表现中得来的,而人的意图表现又受到人对机器意图推理能力认知的影响。在传统的意图推理范式中,由于机器自主性低,人机协作的场景相对简单且固定,人类对机器的意图推理能力和行为表现有着明确且稳定的预期。因此,在这种情形下,人类的意图以及意图表现不受机器的影响,人们可以能够以一种既定、可预测的方式与机器交互。但在人机混合智能的框架下,AI赋能的机器表现对人来说通常是具有不确定性且难以预测的,这是由任务场景的复杂性、机器决策的高度自主性以及AI算法内在的不确定性共同造成。这种非确定、非预期机器表现显然会影响与之交互的人对其意图推理能力的认知,进而,相较于传统情形,人类的意图以及意图表现可能随之发生改变。

交互式特征会导致人类意图与意图表现之间的映射关系出现系统性偏差,传统意图推理方法在应对这一问题时易产生推理错误,而单纯依赖鲁棒性提升等手段难以有效解决。这是因为,在交互特征的影响下,人类对意图表现的调整是有目的且针对性的,而非随机或无规律的变化。例如,当人类的目标是教导机器正确学习其意图时,人类会根据对机器推理进展的理解进行重点教学,以帮助机器弥补推理中的不足。然而,如果这种教学与机器实际的推理进度不匹配,人类可能会反复表达相同内容,进而导致机器推理效率的下降。因此,研究如何在交互式特征的影响下构建人类意图表现模型,并设计相应的意图推理方法,具有重要的意义。

研究现状

由于人机混合智能系统中意图推理的研究尚处于早期,缺乏基础的理论研究以及系统性的方法论。现有的意图推理研究大多仍沿用传统意图推理范式,假设人类对机器的认知是确定且准确的,忽略了新型人机系统中人对机器意图推理能力认知的复杂性。少数工作虽涉及到类似问题,但仍停留在概念性分析和设计性实验阶段,缺乏数学化表达和系统性研究。

研究者虽然将意图推理的应用拓展到自动驾驶车辆、智能机器人等AI赋能的机器上,但大多关注任务场景和人类意图表现的特点,忽视了交互式特征带来的影响。比如,以自动驾驶为代表的场景具有典型的高动态特性,需要实时性高的意图推理方法,以确保安全高效的交通流。文献[1]中采用了递归线性二次规划来近似解决微分博弈问题,以此建模自动驾驶场景中多车交互行为,并结合递归贝叶斯估计实现对其他车辆行驶意图的动态实时预测。又比如,以家居机器人为代表的任务场景通常涉及到任务的多维特征(如收拾餐具时考虑摆放的位置、高度等因素),需要机器在交互过程中持续、主动地推理。文献[2]研究了家用机器人在多特征任务中通过向人类提问并接收人类回答反馈的方式主动推理未学习的特征。文献[3]则结合了被动观察与主动推理两种方式,在机械臂抓取物品任务中,通过被动观察推理人类想要抓取的物品,再通过主动提问获知人类偏好的抓取姿势。此外,由于应用场景的逐渐复杂,人类意图表现不能保证完美,因此,意图推理的研究也在尝试在建模人类意图表现时融入更多的人类决策特点。文献[4], [5]中考虑了人驾车时的有限智能和非理性行为,利用含噪理性模型和人类量化level-k模型刻画了人类在驾驶车辆时做出次优决策或者非理性决策的可能。文献[2]中着重考虑了人类有限记忆的特点,即人类只会关注机器最近的k个问题和对应的回答。

少数工作虽然涉及到交互式特征的相关概念,但仍停留在概念性分析和设计性实验阶段,缺乏数学化表达和系统性研究。文献[6]利用二阶心智模型描绘了机器对人类心智模型进行递归推理的过程,但是仍停留在概念性的分析上,缺乏数学化的表达。文献[7]则设计了一个侦察兵探索游戏,人类与侦察兵机器既扮演“倾听者”也扮演“表达者”的角色,通过双向的交流实现机器与人类价值模型双向对齐。文献[8]建立双向认知模型,设计学生与在线课堂讨论论坛上的虚拟助教之间的对话实验,从语言特征中推断学生对虚拟助教能力的感知情况。然而,这些研究都局限于特定的实验场景,没有对交互式特征进行系统性分析。

综上所述,目前大多数意图推理工作重点关注任务场景和人类意图表现的特点,忽视了人机间交互式特征的影响。少数涉及到类似概念的工作则停留在概念性分析和设计性实验的阶段。

参考文献

  1. [1]Y. Nam and C. Kwon, “Active Inference-Based Planning for Safe Human-Robot Interaction: Concurrent Consideration of Human Characteristic and Rationality,” IEEE Robotics and Automation Letters, 2024.
  2. [2]J.-A. Yow, N. P. Garg, and W. T. Ang, “Shared Autonomy of a Robotic Manipulator for Grasping under Human Intent Uncertainty using POMDPs,” IEEE Transactions on Robotics, 2023.
  3. [3]S. Habibian, A. Jonnavittula, and D. P. Losey, “Here’s what I’ve learned: Asking questions that reveal reward learning,” ACM Transactions on Human-Robot Interaction (THRI), vol. 11, no. 4, pp. 1–28, 2022.
  4. [4]L. Yuan et al., “In situ bidirectional human-robot value alignment,” Science robotics, vol. 7, no. 68, p. eabm4183, 2022.
  5. [5]R. Tian, L. Sun, M. Tomizuka, and D. Isele, “Anytime game-theoretic planning with active reasoning about humans’ latent states for human-centered robots,” in 2021 IEEE International Conference on Robotics and Automation (ICRA), 2021, pp. 4509–4515.
  6. [6]Q. Wang, K. Saha, E. Gregori, D. Joyner, and A. Goel, “Towards mutual theory of mind in human-ai interaction: How language reflects what students perceive about a virtual teaching assistant,” in Proceedings of the 2021 CHI conference on human factors in computing systems, 2021, pp. 1–14.
  7. [7]D. Fridovich-Keil, E. Ratner, L. Peters, A. D. Dragan, and C. J. Tomlin, “Efficient iterative linear-quadratic approximations for nonlinear multi-player general-sum differential games,” in 2020 IEEE international conference on robotics and automation (ICRA), 2020, pp. 1475–1481.
  8. [8]A. Tabrez, M. B. Luebbers, and B. Hayes, “A survey of mental modeling techniques in human–robot teaming,” Current Robotics Reports, vol. 1, pp. 259–267, 2020.

相关科研项目

人机混合智能系统双层智能测试评估技术研究